We kennen allemaal ChatGPT en Bard, maar daarnaast bestaan er nog legio andere soortgelijke chatbots die ook op artificial intelligence (AI) draaien van kleinere bedrijven. Deze zijn vaak minder breed inzetbaar omdat ze getraind zijn op specifieke data, wat maakt dat ze slechts relevant zijn voor bepaalde sectoren en individuen. In die categorie zou je in zekere zin ook FraudGPT kunnen plaatsen.

FraudGPT is een nieuwe AI-chatbot gericht op het online dievengilde. De tool moet het cybercriminelen heel makkelijk maken om frauduleuze aanvallen uit te voeren.

Het kan bijvoorbeeld berichtteksten schrijven voor oplichtingsmails en -smsjes. Maar het kan ook de code voor websites schrijven waarmee gevoelige data gewonnen kan worden en kan volgens de makers zelfs testomgevingen bouwen waarin zijn creaties door de makers getest kunnen worden, voordat ze het op de wereld loslaten.

Volgens cybersecurityonderzoekers van SlashNext zou FraudGPT sinds 25 juli bestaan. Vanaf die datum begon iemand met de gebruikersnaam 'CanadianKingpin12' de tool op verschillende hackersfora aan te bieden.

De onderzoekers spraken met CanadianKingpin12 en ontdekten dat hij aan meerdere soortgelijke chatbots werkt. Deze zouden voornamelijk zijn gebaseerd op data van het dark web, het verborgen deel van het internet, en zogenoemde large language models (LLM's, de taalmodellen achter chatbots) die specifiek zijn gemaakt voor het bestrijden van cybercrime. Ook zou hij werken aan DarkBART, een criminele versie van Google's Bard.

DarkBART is volgens CanadianKingpin12 het beste wat de onderwereld nu te bieden heeft op het gebied van AI-tools. Het zou in staat zijn om onder andere phishing-campagnes op te zetten en aanvallen uit te voeren waarmee ongeautoriseerde toegang tot systemen en netwerken verkregen kan worden. Ook kan het naar verluidt malware schrijven en verspreiden en misbruik maken van zwakke plekken in software.

Grotere kans om slachtoffer te worden van cyberaanval

Nieuw is het gebruik van AI-chatbots door cybercriminelen niet. Er wordt zelfs door de makers van de software hard gewerkt om dit soort gebruik te voorkomen.

Maar FraudGPT en DarkBART zijn wel voorbeelden van LLM's die door de criminelen zelf worden gemaakt op basis van bestaande modellen waarvan de data illegaal is verkregen.

Het geeft aan hoe makkelijk het wordt gemaakt om gedegen aanvallen met minimale inzet uit te voeren. Volgens experts kan het leiden tot meer cyberaanvallen, die minder gericht ingezet worden. Daarmee groeit het risico dat elke internetgebruiker loopt om slachtoffer te worden van een dergelijke dreiging.

LEES OOK: Datalek kost bedrijf gemiddeld €4 miljoen: AI kan helpen schade te beperken